共计 231 个字符,预计需要花费 1 分钟才能阅读完成。
提醒:本文最后更新于 2025-12-30 17:57,文中所关联的信息可能已发生改变,请知悉!
普通的 pip install flash-attn 指令可能触发 flash-attn 的编译过程,耗时很长
linux 用户推荐直接去 https://github.com/Dao-AILab/flash-attention/releases 下载预编译的 whl
windows 用户可以去 https://huggingface.co/lldacing/flash-attention-windows-wheel/tree/main
另外,建议选 FALSE 版本,TRUE 版本可能会出错
正文完
发表至: 人工智能
2025-07-31